8小时的 timer,几个月没触发,今天第一次触发了,啊?我患了 Telegram 过量摄入症。
大家明天见。🥹🥹
大家明天见。🥹🥹
yzqzss|一座桥在水上's Note
啊?蟹蟹 GitHub!送喔永久 Pro 会员! GitHub 我爱你 ( 之前送喔免费 Copilot Pro,现在又送永久 Pro,太棒了。
爱存不存电汇到账 $610 🤩🤩
(图文无关)
这波从 GitHub 身上蓐了个大羊毛。
(图文无关)
这波从 GitHub 身上蓐了个大羊毛。
朋友们快去看乐子:
“不是,哥们”
“算你们有点良心”
“紧急消息,侵权问题”
“目前没有考虑提供 Issue 的删除功能”
https://gitcode.com/Gitcode-offical-team/GitCode-Docs/issues
“不是,哥们”
“算你们有点良心”
“紧急消息,侵权问题”
“目前没有考虑提供 Issue 的删除功能”
https://gitcode.com/Gitcode-offical-team/GitCode-Docs/issues
Forwarded from Save The Web Project
我们统计了历年 AcFun 的全站弹幕数量,不出所料,发现 AcFun 用户触目惊心地巨量流失。
目前不及其 2016 年的 3%,甚至不如当年(2018年)“倒闭”时的 16%。
(考虑到 2024 年才过去一半,于是在表上将它今年的数据翻了倍。)
#互联网观察
目前不及其 2016 年的 3%,甚至不如当年(2018年)“倒闭”时的 16%。
(考虑到 2024 年才过去一半,于是在表上将它今年的数据翻了倍。)
#互联网观察
好奇,测测你硬盘+fs的 fsync 性能。
发现即便是 SSD,不同 SSD 的 fsync 性能差异非常大。低的几十,高的企业级SSD几千。(用裸设备测)
发现即便是 SSD,不同 SSD 的 fsync 性能差异非常大。低的几十,高的企业级SSD几千。(用裸设备测)
import timeit, random, os
def main():
chunk = b''
for i in range(512):
chunk += bytes([random.randint(0, 255)])
with open('test.file', 'wb') as f:
start = timeit.default_timer()
for i in range(1000):
print(i, end='\r')
f.write(chunk)
f.flush()
os.fsync(f.fileno())
end = timeit.default_timer()
print('1000 fsync:', int((end - start) * 1000), 'ms', 'rate:', 1000 / (end - start), 'fsync/s')
main()
yzqzss|一座桥在水上's Note
好奇,测测你硬盘+fs的 fsync 性能。 发现即便是 SSD,不同 SSD 的 fsync 性能差异非常大。低的几十,高的企业级SSD几千。(用裸设备测) import timeit, random, os def main(): chunk = b'' for i in range(512): chunk += bytes([random.randint(0, 255)]) with open('test.file', 'wb') as f: …
草,我说为啥我本子的 nvme ssd 只能 fsync 50-70/s,原来是有些块坏了……
删掉 IO error 的坏块文件,然后 trim 后,性能逐渐恢复,现在涨到 670/s 了。🤣
https://t.me/saveweb_projects/210/24222
这个经历告诉我们,SSD 的 s.m.a.r.t. self-test 基本没用,还是得靠日常的全盘 scrub,然后 SSD 出问题的时候顺序读写性能不太能看出降级,但 4K IO / fsync 性能可能会降低到非常低的离谱水平。
删掉 IO error 的坏块文件,然后 trim 后,性能逐渐恢复,现在涨到 670/s 了。🤣
https://t.me/saveweb_projects/210/24222
这个经历告诉我们,SSD 的 s.m.a.r.t. self-test 基本没用,还是得靠日常的全盘 scrub,然后 SSD 出问题的时候顺序读写性能不太能看出降级,但 4K IO / fsync 性能可能会降低到非常低的离谱水平。